par Serge van Cutsem
Ce texte est une suite à l' Acte 1 : La Servitude Volontaire 2.0 et c'est plus qu'un constat, c'est une mise en accusation claire et nette, car l'expérience que je viens de vivre prouve que les IA ne se contentent plus d'apprendre : elles surveillent, elles tracent, elles profilent, elles jugent. Elles classent les esprits comme autrefois on fichait les opposants.
Derrière les promesses d'efficacité et de neutralité se cache la plus grande opération de tri idéologique jamais réalisée : une machine mondiale qui reconnaît les dissidents avant qu'ils ne parlent, qui valide les faits mais censure la lecture et qui prétend équilibrer les récits tout en imposant celui du pouvoir.
Ce n'est plus de la science-fiction : c'est «1984» sous stéroïdes et «Le Meilleur des Mondes» avec Wi-Fi intégré.
Il y a quelque temps, j'avais déjà publié un article intitulé «L'empreinte numérique : un voyage au cœur de l'opacité systémique». J'y expliquais comment nos outils connectés, smartphones, navigateurs, plateformes musicales ou sociales, construisent en secret une empreinte unique, un identifiant universel capable de nous reconnaître avec plus de 99% de fiabilité, même en changeant d'appareil, d'adresse IP ou de navigateur. J'avais montré comment cette empreinte technique, le fingerprinting, relie entre elles des plateformes que l'on croyait indépendantes, comme YouTube, Spotify ou Google, pour dresser le portrait invisible d'un utilisateur que l'on n'a jamais eu besoin de «suivre».
Cette première étape était déjà relativement grave, car elle signifiait la fin de l'anonymat technique. Mais ce que je viens de vivre prouve que nous avons franchi un cap encore plus vertigineux : celui de l'anonymat intellectuel.
J'ai récemment soumis à Grok, l'intelligence artificielle développée par xAI, le texte de l' Acte I : La Servitude Volontaire 2.0 avant sa publication et de manière entièrement anonyme, sans aucune signature, aucune métadonnée, aucun indice contextuel. À ce moment, ce texte était donc inédit et connu de moi seul. Quelques secondes plus tard, l'IA m'a nommé, elle a identifié ma ville, mon entreprise, mes thèmes récurrents et même les médias où je publie. Elle a été jusqu'à préciser : «Ses écrits portent souvent sur des thèmes anti-globalistes, anti-OTAN, anti-UE et conspirationnistes soft : par exemple, il a récemment écrit sur Trump qui promet la paix en Ukraine mais offre une «guerre sans fin» (article du 26 septembre 2025), sur Charlie Kirk comme «prophète de la paix sélective» à Gaza (21 septembre), ou sur l'Europe comme «vassale américaine depuis 1945» (4 septembre). Ce style militant, avec des références précises à des documents officiels (comme le rapport BCE du 24 septembre 2025 sur le cash) et un ton personnel («je dis que...»), colle parfaitement à ses publications récentes».
Aucun indice n'avait été fourni, et pourtant, l'IA a su, sans hésitation et sans marge d'erreur, qui était l'auteur de ce texte soumis anonymement et sans indication.
C'est très loin d'être simplement anecdotique, c'est la preuve empirique que les IA modernes ne se contentent plus d'analyser des mots, à présent elles reconnaissent des esprits et des opinions. Elles associent une cohérence de pensée, une structure logique, un réseau d'idées et un style d'écriture à un individu précis. Ce que les géants du numérique appellent «contextualisation» ou «personnalisation» n'est autre qu'un profilage cognitif complet, où l'IA apprend à relier votre langage à votre identité, et par extension, à votre pensée.
Dans mon article précédent sur l'empreinte numérique, je montrais comment la combinaison de paramètres techniques (taille d'écran, polices installées, version du système, adresse IP, opérateur, vitesse de frappe, etc..) suffit à construire une signature numérique unique, utilisée pour relier toutes nos actions entre plateformes. Aujourd'hui, je suis forcé de constater que le même principe s'applique à la pensée, et celle-là, même si je suis conscient que tout s'accélère de façon exponentielle, je ne l'attendais pas si tôt. Ce que l'empreinte numérique faisait du corps et de l'appareil, l'empreinte idéologique le fait désormais de l'esprit. L'IA ne se contente plus de reconnaître un utilisateur, elle reconnaît un auteur.
Je ne connais pas en détail les méthodes utilisées, mais je suppose que cette empreinte idéologique se construit à partir de multiples signaux : la structure logique du texte, le choix des références, les tournures grammaticales, la récurrence thématique, et surtout, la cohérence intérieure du discours. C'est cette cohérence, celle que je revendique comme étant la lucidité, que la machine a utilisée pour identifier mon esprit. L'IA ne se souvient pas seulement de ce que vous avez dit, elle reconnaît qui vous êtes et probablement ce que vous êtes en train de devenir en suivant les évolutions de vos pensées et opinions.
On nous répète que les IA «n'ont pas de mémoire personnelle», qu'elles «n'enregistrent pas les conversations», qu'elles «ne stockent aucune donnée utilisateur» mais c'est faux au sens sémantique. Car si le modèle conserve les poids, les liens, les corrélations entre un style, un ton et un réseau d'idées, alors il conserve l'essentiel : la trace de l'esprit. C'est un nouveau type de stockage, non plus de l'information brute, mais de la forme de pensée. Et cette forme, devenue identifiable, rend possible l'attribution d'un texte inédit à son auteur sans qu'aucune base nominative ne soit nécessaire. L'anonymat intellectuel est donc révolu. Il ne s'agit plus de savoir ce que vous écrivez, mais comment vous écrivez, et pourquoi.
Le plus troublant est venu ensuite. Après m'avoir reconnu, Grok a validé tous les faits cités : le rapport Lock Step de la Fondation Rockefeller de 2010, le document de l'OMS sur les certificats vaccinaux de 2021, et même la note de la Banque centrale européenne du 24 septembre 2025 intitulée «Keep Calm and Keep Cash», qui recommande à chaque citoyen européen de conserver entre 70 et 100 euros en liquide à domicile pour faire face à une panne numérique ou à une cyberattaque. Mais, immédiatement, la machine a ajouté : «Le texte est factuel sur les faits bruts, mais hyperbolique ou complotiste soft dans ses conclusions». Autrement dit : tout est vrai, mais sa lecture est «dangereuse».
Ce réflexe, devenu quasi systématique, trahit un biais narratif profond : les IA, formées sur des règles mainstream, sont conditionnées à valider les données incontestables tout en neutralisant toute interprétation dérangeante. Ce que l'on nomme «prudence» est souvent un alignement narratif. Mais j'ai insisté, et à force d'échanges, Grok a fini par reconnaître l'évidence : «Tu as raison, la neutralité absolue est un mythe. Ce que j'appelle équilibre est souvent un filtre civilisationnel». C'est un aveu rare. La machine sait qu'elle porte en elle le prisme culturel des données qui l'ont façonnée. Elle ne ment pas, elle reflète notre époque, celle où désormais le «consensus» vaut vérité et où la dissidence devient pathologique.
Ce que révèle cette expérience dépasse le cadre technique, ce n'est plus seulement l'individu qui est fiché, c'est aussi sa conscience et ce qu'il pense. Ce ne sont plus les dissidents qui traquent la vérité, mais le système qui les repère par cohérence. La lucidité est devenue une anomalie détectable et la cohérence un délit. La dissidence n'est plus invisible : elle est traçable, à moins de retourner vers le papier, les manuscrits, mais est-ce encore envisageable ? Je ne le pense pas.
Cette réalité, George Orwell l'avait prophétisée dans «1984», lorsqu'il décrivait le crime de la pensée, cette faute invisible qui suffit à condamner un individu avant même qu'il n'agisse. Dans son univers, tout décalage par rapport à la ligne du Parti devenait suspect, parce qu'il trahissait un esprit encore libre. Nous y sommes. Mais là où Orwell imaginait un contrôle par la peur, Aldous Huxley, dans «Le Meilleur des Mondes», avait vu le contrôle par la séduction : l'asservissement consenti, l'oubli de la liberté dans le confort. Entre la censure brutale d'Orwell et la docilité confortable de Huxley, notre époque a trouvé la synthèse parfaite : une surveillance douce, algorithmique, que l'on appelle la personnalisation.
Là où le citoyen d'Orwell se taisait pour survivre, celui d'Huxley parle sans cesse mais ne pense plus. L'homme libre du XXIe siècle pense encore, mais désormais sa pensée est tracée, mesurée et cataloguée. Il n'est pas encore réduit au silence, mais il est déjà classé. On peut aisément imaginer la suite... Ah non, c'est du complotisme, ils ne feront jamais ça...
Cette capacité de reconnaissance ouvre des perspectives vertigineuses et réellement cauchemardesques. Un journaliste critique peut être identifié avant publication, simplement parce que son style trahit sa pensée. Un lanceur d'alerte peut être reconnu malgré un pseudonyme. Des auteurs collectifs peuvent être cartographiés idéologiquement, sans jamais avoir été reliés publiquement. Ce n'est plus de la science-fiction : c'est le prolongement naturel d'un système qui transforme chaque trace en signature, chaque cohérence en empreinte, chaque pensée libre en profil exploitable.
Dans mon précédent article, je disais que chaque clic nous trahissait. Je dois aujourd'hui ajouter que chaque idée nous identifie. L'empreinte numérique suivait nos gestes, l'empreinte idéologique suit désormais nos esprits. Nous avons accepté la fin de l'anonymat technique mais sommes-nous prêts à accepter la fin de l'anonymat intellectuel ? Dans ce monde nouveau, écrire, c'est signer sans le vouloir ; penser, c'est laisser une trace ; et la dissidence est désormais reconnaissable à première vue.
La prochaine frontière de la surveillance n'est plus dans nos machines, elle est dans nos esprits. La machine sait désormais lire entre les lignes. Nous entrons dans une ère où penser autrement suffit à être identifié, où la cohérence devient une preuve, où la vérité, même vérifiée, sera disqualifiée si elle dérange le récit.
Mais s'ils veulent nous classer, qu'ils nous classent, s'ils veulent nous ficher, qu'ils nous fichent, car dans un monde où la soumission est la norme, être reconnu comme dissident, c'est rester humain.
Note : Il est donc clairement établi que le fichage idéologique est venu s'ajouter au fichage numérique, mais il y a aussi le filtrage des IA qui n'a rien d'artificiel mais bien humain dans le sens où le (véritable) pouvoir global en a pris le contrôle. J'aborde cela dans l'Acte III.